单光子敏感的深度传感器正在越来越多地用于人类姿势和手势识别的下一代电子。但是,具有成本效益的传感器通常具有低空间分辨率,从而将其用于基本运动识别和简单的对象检测。在这里,我们执行一个时间到空间映射,从而大大增加了简单飞行时间传感器的分辨率,即〜初始分辨率为4 $ \ times $ 4像素到分辨率32 $ \ times $ 32像素的深度图像。然后,可以将输出深度图用于准确的三维人姿势估计多人。我们开发了一个新的可解释框架,该框架为我们的网络如何利用其输入数据提供了直觉,并提供了有关相关参数的关键信息。我们的工作大大扩展了简单的飞机飞行时间传感器的用例,并为将来应用于具有相似数据类型的其他类型的传感器(即雷达和声纳)开辟了有希望的可能性。
translated by 谷歌翻译